Vượt Qua Yêu Cầu Thô
Khi bắt đầu với các Mô hình Ngôn ngữ lớn (LLMs), các nhà phát triển thường sử dụng các lời gọi API trực tiếp (như thư viện Python của OpenAI) để gửi một yêu cầu và nhận kết quả hoàn thành. Mặc dù hoạt động được, nhưng cách tiếp cận này trở nên khó kiểm soát khi ứng dụng mở rộng.
Vấn Đề Về Sự Không Có Trạng Thái
Các Mô hình Ngôn ngữ lớn vốn dĩ là không có trạng thái. Mỗi lần bạn gửi một tin nhắn, mô hình sẽ "quên" bạn là ai và bạn đã nói gì trước đó. Mỗi tương tác đều là một trang trắng. Để duy trì cuộc trò chuyện, bạn phải thủ công gửi lại toàn bộ lịch sử vào mô hình mỗi lần.
Giải Pháp Từ LangChain
LangChain giới thiệu lớp bao bọc ChatOpenAI cho mô hình. Điều này không đơn thuần chỉ là một lớp bao bọc — nó là nền tảng cho tính module. Bằng cách trừu tượng hóa lời gọi mô hình, chúng ta sau này có thể thay đổi mô hình, thêm bộ nhớ và sử dụng các mẫu mà không cần viết lại toàn bộ cơ sở mã nguồn của mình.
Your task is to create a
ChatOpenAI instance named my_llm with a temperature of 0.7 to allow for more creative (non-deterministic) responses.
from langchain_openai import ChatOpenAImy_llm = ChatOpenAI(temperature=0.7)